Text copied to clipboard!

Tittel

Text copied to clipboard!

Hadoop Utvikler

Beskrivelse

Text copied to clipboard!
Vi leter etter en dyktig og erfaren Hadoop-utvikler som kan bidra til å utvikle og vedlikeholde våre storskala databehandlingssystemer. Som Hadoop-utvikler vil du være ansvarlig for å designe, implementere og optimalisere dataløsninger ved hjelp av Hadoop-økosystemet, inkludert verktøy som Hive, Pig, HBase, Spark og MapReduce. Du vil samarbeide tett med dataingeniører, dataanalytikere og andre utviklere for å sikre at våre dataplattformer er effektive, skalerbare og pålitelige. Stillingen krever en sterk forståelse av distribuerte systemer og erfaring med å jobbe med store datamengder. Du bør ha god kjennskap til programmeringsspråk som Java, Scala eller Python, samt erfaring med dataintegrasjon og ETL-prosesser. Det er også viktig at du har erfaring med å jobbe i skybaserte miljøer som AWS, Azure eller Google Cloud Platform. Som en del av vårt teknologiteam vil du få muligheten til å jobbe med spennende prosjekter innenfor dataanalyse, maskinlæring og sanntidsbehandling av data. Vi verdsetter innovasjon, samarbeid og kontinuerlig læring, og vi ser etter en person som er lidenskapelig opptatt av teknologi og som ønsker å bidra til å forme fremtidens dataplattformer. Hvis du er en problemløser med sterk teknisk bakgrunn og interesse for big data-teknologier, oppfordrer vi deg til å søke. Vi tilbyr konkurransedyktige betingelser, fleksible arbeidsforhold og muligheten til å jobbe med noen av de mest avanserte teknologiene innen data og analyse.

Ansvarsområder

Text copied to clipboard!
  • Utvikle og vedlikeholde Hadoop-baserte dataplattformer
  • Designe og implementere databehandlingsløsninger med MapReduce, Hive og Pig
  • Optimalisere ytelse og skalerbarhet i distribuerte systemer
  • Samarbeide med dataingeniører og analytikere for å forstå databehov
  • Implementere ETL-prosesser for dataintegrasjon
  • Overvåke og feilsøke Hadoop-klynger og relaterte komponenter
  • Skrive og vedlikeholde teknisk dokumentasjon
  • Delta i arkitektur- og designbeslutninger
  • Bidra til kontinuerlig forbedring av utviklingsprosesser
  • Sikre datasikkerhet og etterlevelse av retningslinjer

Krav

Text copied to clipboard!
  • Bachelorgrad i informatikk, ingeniørfag eller tilsvarende
  • Minst 3 års erfaring med Hadoop og relaterte teknologier
  • God kunnskap om Java, Scala eller Python
  • Erfaring med Hive, Pig, HBase og Spark
  • Forståelse av distribuerte systemer og parallell databehandling
  • Erfaring med ETL-verktøy og dataintegrasjon
  • Kjennskap til skyplattformer som AWS, Azure eller GCP
  • Evne til å jobbe selvstendig og i team
  • Sterke analytiske og problemløsningsevner
  • Gode kommunikasjonsevner på norsk og engelsk

Potensielle intervjuspørsmål

Text copied to clipboard!
  • Hvor mange års erfaring har du med Hadoop?
  • Hvilke Hadoop-komponenter har du jobbet mest med?
  • Har du erfaring med skyplattformer? Hvilke?
  • Kan du beskrive et prosjekt der du brukte Spark?
  • Hvilke programmeringsspråk behersker du best?
  • Hvordan håndterer du feilsøking i distribuerte systemer?
  • Har du erfaring med sanntids databehandling?
  • Hvordan sikrer du datakvalitet i ETL-prosesser?
  • Hva motiverer deg til å jobbe med big data?
  • Er du komfortabel med å jobbe i tverrfaglige team?